Saúde

Para uma audição saudável, o momento certo é importante
Modelos de aprendizado de máquina permitem que neurocientistas estudem o impacto do processamento auditivo na audição no mundo real.
Por Jennifer Michalowski - 16/01/2025


Créditos: Imagem: iStock


Quando as ondas sonoras chegam ao ouvido interno, os neurônios ali captam as vibrações e alertam o cérebro. Codificado em seus sinais está uma riqueza de informações que nos permite acompanhar conversas, reconhecer vozes familiares, apreciar música e localizar rapidamente um telefone tocando ou um bebê chorando.

Os neurônios enviam sinais emitindo picos — breves mudanças na voltagem que se propagam ao longo das fibras nervosas, também conhecidas como potenciais de ação. Notavelmente, os neurônios auditivos podem disparar centenas de picos por segundo, e cronometrar seus picos com precisão requintada para corresponder às oscilações das ondas sonoras recebidas.

Com novos e poderosos modelos de audição humana, cientistas do Instituto McGovern de Pesquisa Cerebral do MIT determinaram que esse tempo preciso é vital para algumas das maneiras mais importantes de dar sentido às informações auditivas, incluindo o reconhecimento de vozes e a localização de sons.

As descobertas de acesso aberto, relatadas em 4 de dezembro no periódico Nature Communications , mostram como o aprendizado de máquina pode ajudar neurocientistas a entender como o cérebro usa informações auditivas no mundo real. O professor do MIT e pesquisador da McGovern , Josh McDermott , que liderou a pesquisa, explica que os modelos de sua equipe equipam melhor os pesquisadores para estudar as consequências de diferentes tipos de deficiência auditiva e elaborar intervenções mais eficazes.

Ciência do som

Os sinais auditivos do sistema nervoso são cronometrados com tanta precisão que os pesquisadores há muito suspeitam que o tempo é importante para nossa percepção do som. As ondas sonoras oscilam em taxas que determinam seu tom: sons graves viajam em ondas lentas, enquanto ondas sonoras agudas oscilam com mais frequência. O nervo auditivo que transmite informações das células ciliadas detectoras de som no ouvido para o cérebro gera picos elétricos que correspondem à frequência dessas oscilações. "Os potenciais de ação em um nervo auditivo são disparados em pontos muito específicos no tempo em relação aos picos na forma de onda do estímulo", explica McDermott, que também é chefe associado do Departamento de Ciências Cognitivas e do Cérebro do MIT.

Essa relação, conhecida como bloqueio de fase, requer que os neurônios cronometrem seus picos com precisão de submilissegundos. Mas os cientistas não sabem realmente o quão informativos esses padrões temporais são para o cérebro. Além de ser cientificamente intrigante, diz McDermott, a questão tem implicações clínicas importantes: "Se você quer projetar uma prótese que forneça sinais elétricos ao cérebro para reproduzir a função do ouvido, é indiscutivelmente muito importante saber que tipos de informação no ouvido normal realmente importam", diz ele.

Isso tem sido difícil de estudar experimentalmente; modelos animais não podem oferecer muito insight sobre como o cérebro humano extrai estrutura na linguagem ou música, e o nervo auditivo é inacessível para estudo em humanos. Então McDermott e o aluno de pós-graduação Mark Saddler PhD '24 se voltaram para redes neurais artificiais.

Audição artificial

Os neurocientistas há muito usam modelos computacionais para explorar como as informações sensoriais podem ser decodificadas pelo cérebro, mas até os avanços recentes no poder da computação e métodos de aprendizado de máquina, esses modelos eram limitados a simular tarefas simples. "Um dos problemas com esses modelos anteriores é que eles geralmente são bons demais", diz Saddler, que agora está na Universidade Técnica da Dinamarca. Por exemplo, um modelo computacional encarregado de identificar o tom mais alto em um par de tons simples provavelmente terá um desempenho melhor do que pessoas que são solicitadas a fazer a mesma coisa. "Este não é o tipo de tarefa que fazemos todos os dias na audição", ressalta Saddler. "O cérebro não é otimizado para resolver essa tarefa muito artificial." Essa incompatibilidade limitou os insights que poderiam ser extraídos dessa geração anterior de modelos.

Para entender melhor o cérebro, Saddler e McDermott queriam desafiar um modelo de audição a fazer coisas que as pessoas usam sua audição para fazer no mundo real, como reconhecer palavras e vozes. Isso significava desenvolver uma rede neural artificial para simular as partes do cérebro que recebem entrada do ouvido. A rede recebeu entrada de cerca de 32.000 neurônios sensoriais de detecção de som simulados e então foi otimizada para várias tarefas do mundo real.

Os pesquisadores mostraram que seu modelo reproduziu bem a audição humana — melhor do que qualquer modelo anterior de comportamento auditivo, diz McDermott. Em um teste, a rede neural artificial foi solicitada a reconhecer palavras e vozes em dezenas de tipos de ruído de fundo, do zumbido de uma cabine de avião a aplausos entusiasmados. Sob todas as condições, o modelo teve um desempenho muito semelhante ao dos humanos.

Quando a equipe degradou o tempo dos picos no ouvido simulado, no entanto, seu modelo não conseguiu mais corresponder à capacidade dos humanos de reconhecer vozes ou identificar a localização dos sons. Por exemplo, enquanto a equipe de McDermott havia mostrado anteriormente que as pessoas usam o tom para ajudá-las a identificar as vozes das pessoas, o modelo revelou que essa capacidade é perdida sem sinais precisamente cronometrados. "Você precisa de um tempo de pico bastante preciso para levar em conta o comportamento humano e ter um bom desempenho na tarefa", diz Saddler. Isso sugere que o cérebro usa sinais auditivos precisamente cronometrados porque eles auxiliam esses aspectos práticos da audição.

As descobertas da equipe demonstram como as redes neurais artificiais podem ajudar os neurocientistas a entender como as informações extraídas pelo ouvido influenciam nossa percepção do mundo, tanto quando a audição está intacta quanto quando está prejudicada. “A capacidade de vincular padrões de disparo no nervo auditivo com o comportamento abre muitas portas”, diz McDermott.

“Agora que temos esses modelos que vinculam as respostas neurais no ouvido ao comportamento auditivo, podemos perguntar: 'Se simularmos diferentes tipos de perda auditiva, que efeito isso terá em nossas habilidades auditivas?'”, diz McDermott. “Isso nos ajudará a diagnosticar melhor a perda auditiva, e achamos que também há extensões disso para nos ajudar a projetar melhores aparelhos auditivos ou implantes cocleares.” Por exemplo, ele diz: “O implante coclear é limitado de várias maneiras — ele pode fazer algumas coisas e não outras. Qual é a melhor maneira de configurar esse implante coclear para permitir que você medite comportamentos? Você pode, em princípio, usar os modelos para lhe dizer isso.”

 

.
.

Leia mais a seguir